• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " Open API"에 대한 통합 검색 내용이 1,151개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오토데스크-네메첵, “건축 설계 및 건설 산업을 위한 개방형 워크플로 발전시킨다”
오토데스크는 건축, 엔지니어링, 건설 및 운영(AECO) 및 미디어 및 엔터테인먼트(M&E) 산업의 개방형 협업과 효율성 향상을 위해 네메첵 그룹과 상호운용성 계약을 체결했다고 발표했다. 이번 협약을 통해 양사는 클라우드 및 데스크톱 제품 간의 기존 상호운용성을 강화하고, 솔루션 간 원활한 정보 교환을 개선할 수 있을 것으로 기대하고 있다. 건물과 고속도로 등을 건설하거나 미디어 애셋을 제작할 때 클라우드 연결 도구로 작업하면 자동화를 강화하고 프로젝트의 모든 단계에서 더 나은 결정을 내릴 수 있는 인사이트를 얻을 수 있다. 하지만 소프트웨어와 파일의 비호환성으로 인해 사람, 프로세스, 데이터가 사일로화되어 비효율적인 워크플로를 초래하는 경우가 많다. 오토데스크와 네메첵의 워크플로를 최적화하면 하나의 클라우드 플랫폼 또는 데스크톱 애플리케이션에서 다른 애플리케이션으로 데이터를 보다 쉽게 전송할 수 있으므로 세부 정보를 적시에 적절한 사람에게 전달할 수 있게 된다. 이러한 상호운용성은 개방형 애플리케이션 프로그래밍 인터페이스(API) 및 웹 서비스 세트인 오토데스크 플랫폼 서비스(APS)를 기반으로 하며, 이를 통해 네메첵의 디트윈(dTwin), 블루빔 클라우드(Bluebeam Cloud), BIM클라우드(BIMcloud) 및 BIM플러스(BIMplus)를 오토데스크의 포마(Forma), 퓨전(Fusion) 및 플로(Flow) 등 산업용 클라우드와 설계 솔루션에 연결할 수 있게 된다. 이를 통해 고객과 파트너는 각 솔루션에서 데이터와 기능을 연결할 수 있으므로 사용자는 자동화, AI 및 인사이트를 통해 프로젝트를 최적화하는 데 집중할 수 있다.     이번 상호운용성 계약은 건축 자산 산업에서 디지털 데이터의 접근성, 유용성, 관리 및 지속 가능성을 개선하여 BIM(빌딩 정보 모델링)의 이점을 확장하는 빌딩스마트의 오픈BIM(openBIM)과 같은 통합 및 개방형 산업 표준에 대한 노력을 보여준다. 사일로 없는 에코시스템을 구축하여 협업함으로써 팀은 엔드 투 엔드 워크플로에서 동일한 디지털 모델로 작업할 수 있다. 이번 계약에 따라 오토데스크와 네메첵 그룹은 양사의 API와 산업 클라우드에 대한 상호 액세스를 제공한다. 개발자는 오토캐드, 레빗, 3ds 맥스, 마야 등 오토데스크 솔루션과 오토데스크 포마, 오토데스크 건설 클라우드에 올플랜, 아키캐드, 블루빔, 맥슨 원, 벡터웍스 등 네메첵의 관련 클라우드 플랫폼과 솔루션과 비슷하게 액세스할 수 있게 된다. 이를 통해 양사는 기존의 데이터 교환을 개선하고 분야와 산업을 아우르는 새로운 데이터 중심 워크플로를 열 수 있을 것으로 기대하고 있다. 오토데스크의 에이미 번젤(Amy Bunszel) AEC 솔루션 부문 수석 부사장은 “오토데스크는 데이터를 활용하고 프로젝트 팀을 연결하는 개방형 통합 클라우드 기반 솔루션을 구축하는 데에 전념하고 있다”면서, “오토데스크의 클라우드 및 데스크톱 솔루션에 네메첵 상호 운용성을 확장하는 것은 고객의 워크플로를 최적화하고 더 나은 프로젝트 결과를 창출하는 데 큰 도움이 될 것”이라고 전했다. 네메첵 그룹의 마크 네제(Marc Nézet) 최고 전략 책임자(CSO)는 “오픈BIM, 상호 운용성, 개방형 산업 표준을 지원하는 것은 네메첵 그룹의 DNA에 깊이 뿌리내리고 있다. 오토데스크와의 상호 운용성 계약은 고객이 모든 프로젝트 환경과 소프트웨어 에코시스템에서 작업할 수 있는 능력을 제공하여 궁극적으로 더 나은 건설 세계를 만들기 위한 행보”라고 설명했다.
작성일 : 2024-04-29
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
마이크로소프트, 국내 기업의 혁신 돕는 AI 트랜스포메이션 사례 공개
마이크로소프트가 생성형 AI 기술로 다양한 국내 산업의 고객 서비스 혁신과 비즈니스 성장을 지원하며 AI 트랜스포메이션 혁신 사례를 구축하고 있다고 소개했다. 마이크로소프트는 AI 기술이 조직 경쟁력 유지를 위한 필수적인 비즈니스 요소가 될 것으로 전망하고 있다. 마이크로소프트가 의뢰한 글로벌 시장 조사기관 IDC의 연구 결과에 따르면 조사에 참여한 응답자 71%가 이미 회사에서 AI를 사용하고 있으며, 이들은 평균적으로 1년 2개월 만에 AI 투자에 대한 수익을 실현하고 있는 것으로 나타났다. 이 연구는 전 세계 2100명 이상의 비즈니스 리더와 의사 결정권자를 대상으로 실시됐다. 마이크로소프트는 애저 오픈AI 서비스(Azure OpenAI Service)를 통해 향상된 컴플라이언스, 데이터 보안 강화, 확장성, 책임 있는 AI 등 차별화된 서비스를 제공하고 있다. 이 서비스는 전 세계 1만 8000개 이상의 조직과 포춘 500대 기업 중 절반 이상이 사용하며 전 세계 조직의 AI 트랜스포메이션 속도를 가속화하고 있다. 마이크로소프트는 국내에서도 자사의 AI 기술을 도입해 업무 프로세스를 혁신하고 새로운 비즈니스 모델 개발에 나서는 기업들이 늘고 있다고 전했다. LG전자의 H&A본부는 생성형 AI 기반 빅데이터 분석 솔루션인 찾다(CHATDA)를 도입해 고객 요구 사항을 효과적으로 파악하고 사용자 경험을 개선했다. 이 시스템은 마이크로소프트 애저 환경과 애저 오픈AI 서비스를 활용해 데이터 보안과 안정성을 강화한다. 또한, 자연어 처리 기능으로 현업의 분석 요구사항에 부합하는 데이터를 정밀하게 선별하고, 이를 기반으로 분석 코드를 자동 생성 및 실행한다. 이를 통해 법무검토, 데이터 탐색, 가공 분석에 소요되던 시간이 평균 5일에서 30분으로 단축돼 업무 효율성이 향상됐다.     AI 서비스 플랫폼 기업 뤼튼테크놀로지스는 애저 오픈AI 서비스와 프로비전드 스루풋(Provisioned Throughput : PTU)를 도입해 이전보다 두 배 이상 증가한 사용자 트래픽을 안정적으로 처리하고 있다. 이러한 운영 안정성과 지속적인 서비스 개선을 바탕으로, 뤼튼 서비스의 고객 만족도를 나타내는 NPS(Net Promoter Score) 점수가 30% 이상 향상됐다. 크래프톤의 AI 전문 스튜디오인 렐루게임즈도 애저 오픈AI 서비스를 도입해 새로운 게임 개발에 나서고 있다.  특히 오는 6월 출시를 앞둔 '언커버 더 스모킹 건'은 플레이어가 용의자와 대화하며 사건을 해결하는 추리 게임으로, 플레이어의 자유도를 높여 실제와 유사한 현실감 있는 게임 환경을 제공한다. 렐루 게임즈는 이를 구현하기 위해 대형언어모델(LLM)의 애플리케이션 프로그래밍 인터페이스(API)를 70% 이상 사용하고 있다.  배달 플랫폼 ‘배달의 민족’을 운영하는 우아한형제들은 애저 오픈AI 서비스를 활용해 고객 상황에 맞는 메뉴를 제안하는 ‘메뉴뚝딱AI’ 서비스를 선보여 고객 편의성을 높였다. 이 서비스는 고객이 작성한 리뷰를 분석해 음식 특성과 주문 성향을 파악하는 키워드를 추출하고, 시간대·식사 동반자·상황·맛 등을 고려해 안전성 검증을 거친 120종의 컨텍스트를 통해 사용자에게 맞춤형 메뉴를 추천한다. 융합 사고력 기업 크레버스는 마이크로소프트 AI 솔루션을 도입해 자동으로 과제를 평가하고 개인 맞춤형 피드백을 제공하는 시스템을 구축, 학생들의 만족도를 크게 높였다. 이 과정에서 평균 3.5일이 걸렸던 과제 채점 시간이 7초로 단축돼 실시간 피드백을 제공하고 있으며, 운영 비용도 약 85% 절감될 것으로 기대하고 있다. 반려로봇 개발기업 효돌은 AI 기반 대화형 AI 돌봄 로봇 ‘효돌 2.0’에 애저 오픈AI 및 애저 코그니티브 서비스(Azure Cognitive Services)를 도입해 음성 엔진을 개선하고 대화 기능을 고도화했다. 이를 통해 사용자와의 친밀감이 기존 대비 10% 이상 증가됐으며, 맞춤형 신경망(Custom Neural) 기반 STT/TTS 엔진을 활용해 시니어층의 우울증이나 치매 징후를 조기에 발견하고 정신 건강 상태를 진단할 수 있게 됐다. 한국마이크로소프트의 조원우 대표는 “AI 기술은 한국의 산업 전반에 긍정적인 변화를 가져오고 있다”며, “앞으로도 마이크로소프트는 가장 신뢰할 수 있는 AI 트랜스포메이션 파트너로서 국내 기업들이 AI를 통해 업무 프로세스를 혁신하고, 더 나은 고객 경험을 제공할 수 있도록 적극 지원할 것”이라고 전했다.
작성일 : 2024-04-22
어도비, “AI로 프리미어 프로의 비디오 워크플로 향상시킨다”
어도비가 프리미어 프로(Adobe Premiere Pro)에서 영상 제작 및 제작 워크플로를 재구상할 생성형 AI 혁신을 공개했다. 이는 빠른 속도의 영상 제작을 위해 전문 편집자에게 필요한 새로운 창의적 가능성을 제공한다. 올해 프리미어 프로에 새롭게 도입될 새로운 생성형 AI 툴을 통해 사용자는 장면에서 개체를 추가 또는 제거하거나 기존 클립을 확장하는 등 전체 영상 편집을 간소화할 수 있다. 새로운 편집 워크플로는 이미지, 벡터, 디자인, 텍스트 효과를 포함한 파이어플라이(Firefly) 제품군에 추가될 새로운 비디오 모델에 의해 구동될 예정이다. 어도비는 이미징, 영상, 오디오 및 3D와 같이 어도비가 깊은 전문성을 갖고 있는 영역에서 파이어플라이 AI 모델을 지속적으로 개발하고 있으며, 이 모델들을 크리에이티브 클라우드(Creative Cloud)와 어도비 익스프레스(Adobe Express)에 통합할 예정이다. ‘생성형 확장(Generative Extend)’ 기능은 프레임을 매끄럽게 추가해 클립을 더 길게 만들 수 있어, 보다 쉽게 편집 시간을 맞추고 부드러운 전환을 추가할 수 있다. ‘개체 추가 및 제거(Object Addition & Removal)’ 기능은 간단하게 개체를 선택하고 추적한 후 교체하는 기능이다. ‘텍스트를 영상으로(Text to Video)’ 기능은 간단하게 프롬프트에 텍스트를 입력하거나 참조 이미지를 업로드해, 프리미어 프로에서 새로운 영상(footage)을 생성할 수 있다.    ▲ 프리미어 프로에 추가되는 개체 제거 기능   또한 어도비는 크리에이티브 클라우드의 파트너 및 플러그인 생태계를 바탕으로, 서드파티 생성형 AI 모델을 프리미어 프로와 같은 어도비 애플리케이션에 직접 가져오는 비전도 미리 공개했다. 어도비는 초기 탐색 단계에서 전문 영상 편집자가 향후 프리미어 프로에 통합된 오픈AI(Open AI) 및 런웨이(Runway)의 영상 생성 모델을 활용해 자신의 프로젝트에서 편집 가능한 B-롤을 생성하는 법을 제시했다. 또한 피카 랩스(Pika Labs)와 생성형 확장(Generative Extend) 툴을 함께 사용해 마지막 장면을 몇 초 더 늘리는 방법도 소개했다. 이 밖에도 어도비는 새로운 페이드 핸들(fade handles), 클립 배지(clip badges), 동적 파형(dynamic waveforms), AI 기반 카테고리 태깅(AI-based category tagging) 등 프리미어 프로의 AI 구동 오디오 워크플로를 곧 출시한다고 밝혔다. 여기에는 ▲클립 핸들을 드래그해 오디오 페이드 효과를 만듦으로써 빠른 맞춤형 오디오 전환 생성 ▲AI가 오디오 클립을 자동 태그하고 새로운 아이콘을 추가 ▲새로운 시각적 표시기를 통해 클립에 적용된 효과를 쉽게 확인하고 시퀀스에서 효과 매개 변수를 자동 실행 ▲클립의 트랙 높이 변경에 맞춰 파형 크기의 지능적 조정 ▲원치 않는 노이즈를 즉시 제거하거나 녹음 품질이 낮은 대화를 개선하는 AI 구동 음성 향상 등의 기능이 포함된다. 어도비는 어도비 파이어플라이와 다양한 서드파티 모델로 구동되는 새로운 생성형 AI 역량을 제공함으로써, 고객이 프리미어 프로에서 매일 사용하는 워크플로를 벗어나지 않고도 다양한 신규 역량을 활용할 수 있도록 지원할 것이라고 밝혔다. 어도비는 오는 5월 새로운 생성형 AI 영상 툴과 프리미어 프로의 새로운 오디오 워크플로를 출시할 계획이다. 어도비의 애슐리 스틸(Ashley Still) 크리에이티브 제품 그룹 수석 부사장은 “어도비는 크리에이터의 비전 실현을 위한 새로운 역량과 유연성을 제공하기 위해 영상 제작 및 제작 워크플로의 모든 단계를 재구상하고 있다”면서, “프리미어 프로의 핵심 워크플로에 생성형 AI 혁신을 도입함으로써 영상 편집자가 매일 겪는 실질적인 고충을 해결하는 동시에 자신의 작업에 더 집중할 수 있는 여유를 제공한다”고 전했다.
작성일 : 2024-04-16
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12
[케이스 스터디] 해외 소장 문화재의 ‘디지털 귀향’ 프로젝트
언리얼 엔진과 에픽 에코시스템으로 이뤄낸 문화유산 디지털 경험   문화유산은 우리의 과거를 이해하고, 현재와 미래의 역사와 정체성을 보존하고 전해질 수 있도록 하는 중요한 자산이다. 이러한 대한민국의 문화유산 중 약 23만 점은 합법 또는 부당하게 반출되어, 이를 아카이빙하여 관리하고 가능한 경우 국내에 환수하려는 다양한 노력들이 이어지고 있다. 이런 노력의 일환으로 대한민국 정부는 최근 디지털 기술과 장비들의 발전에 힘입어 복잡하고 어려운 물리적 환수를 대체할 수 있는 ‘디지털 공유’라는 개념을 생각해 냈다. ■ 자료 제공 : 에픽게임즈   ‘디지털 공유’의 개념은 해외 박물관에 소장되어 있는 한국 예술품의 디지털 원형 데이터를 매우 정밀하게 구축하고, 이를 기반으로 실물 예술품을 감상하는 것과 같이 디지털로 실감 나는 콘텐츠를 개발하고 한국과 현지에 동시에 전시해 그 가치를 함께 공유하는 것이다. 이 개념을 처음으로 구체화한 프로젝트가 바로 ‘클리블랜드미술관(CMA) 소장 한국문화재 디지털 귀향 프로젝트’이다.   TRIC 및 CMA 소장 한국문화재 디지털 귀향 프로젝트 소개 이 프로젝트를 수행한 TRIC(문화유산기술연구소)는 문화와 유산을 위한 디지털 기술 R&D와 그 활용 사업을 통해 새로운 가치를 창출하는 기업으로, 지난 10년 동안 인도네시아, 라오스, 튀르키예, 카자흐스탄, 일본, 이집트 등 전 세계의 주요 유산을 대상으로 디지털 아카이빙 및 콘텐츠를 개발해 모두가 누릴 수 있도록 서비스하고 있다. 최근에는 리얼타임 콘텐츠의 발전 덕분에 언리얼 엔진을 중심으로 파이프라인을 구축하며 클리블랜드 미술관의 프로젝트를 진행하고 있다.   ▲ TRIC가 진행한 다양한 프로젝트(이미지 출처 : 언리얼 엔진 홈페이지)   CMA 소장 한국문화재 디지털 귀향 프로젝트는 미국 클리블랜드 미술관이 소장하고 있는 한국 문화유산의 디지털 원형 데이터를 구축하고 디지털 실감 콘텐츠를 제작하여 올 3월부터 한미 양국에서 동시에 전시하는 국제 협력 프로젝트다. 총 3년에 걸쳐 진행되고 있는 이 프로젝트는 1차년도인 2022년에 클리블랜드 미술관이 소장하고 있는 한국 유물 대표 13점을 디지털 아카이빙했고, 2차년도인 2023년에는 13점의 유물 중 대규모 전시 연출에 가장 적합한 칠보산도를 선정해 몰입적인 실감 콘텐츠로 제작했다. 그리고 3차년도인 올해 3월에는 한미 양국에 그 결과물을 선보이는 공동전시를 개최했다.    ▲ CMA 소장 한국문화재 디지털 귀향 프로젝트 : 칠보산도(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진을 작업 파이프라인에 도입한 이유 예술품 데이터를 활용한 콘텐츠 구축 프로젝트는 디지털 버전의 예술품을 얼마나 실제와 동일하게 구현하는지 그 사실성이 가장 중요하다. 하지만 메시와 텍스처가 정밀할수록, 그리고 단일 예술품이 아닌 건축물을 구현할수록 데이터가 무거워지는 것은 필연적이기 때문에 기존에는 데이터 경량 및 최적화 작업에 많은 리소스를 투입했다. TRIC는 설립 초창기부터 다양한 미디어 기술을 통한 관람객과 예술 사이의 상호작용(인터랙션)을 중요하게 생각해 왔고, 물리적 센싱 기반의 콘텐츠나 VR 및 AR 등 실시간 인터랙티브 콘텐츠 개발을 주로 해 왔기 때문에 이러한 최적화 작업이 반드시 필요했다. 이 때문에 퀄리티를 그대로 보존하면서도 최소한의 작업으로 실시간 구동이 가능한 언리얼 엔진을 도입했다.   ▲ 언리얼 엔진으로 구현한 높은 정밀도의 디지털 유물(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진 5의 루멘과 나나이트를 활용하면 데이터의 디테일을 높은 비주얼 퀄리티로 구현할 수 있을 뿐만 아니라 리얼타임 제작에 필수였던 장시간의 최적화 작업에 대한 부담을 줄여 주었기 때문에, 적은 인원으로도 목표한 퀄리티의 결과물을 빠르게 도출할 수 있었다. 또한, 언리얼 엔진을 도입한 덕분에 기본 영상부터 복잡한 계산과 시뮬레이션을 요구하는 몰입형 다면 영상, 아나몰픽 영상 등 새로운 출력 방식의 콘텐츠 제작을 위한 작업 파이프라인까지 TRIC가 진행하고 있는 프로젝트 전반의 파이프라인을 단축할 수 있었다.   ▲ TRIC가 제작한 아나몰픽 영상(이미지 출처 : 언리얼 엔진 홈페이지)   최근에 진행한 프로젝트의 파이프라인 CMA 소장 한국문화재 디지털 귀향 프로젝트는 크게 13점의 유물을 스캔하여 디지털화하고, 칠보산도 실감 콘텐츠를 제작하는 2가지 작업으로 진행되었다. 이를 위해 스캔 작업에서는 리얼리티캡처를 전면적으로 활용하였고, 칠보산도 실감 콘텐츠 제작에서는 언리얼 엔진 중심의 파이프라인을 구축했다. 먼저 프로젝트 1차 연도에 진행한 디지털 데이터 구축 작업의 경우, 칠보산도를 포함하여 클리블랜드 박물관이 소장하고 있는 한국 유물 13점에 대한 초정밀 디지털 데이터를 구축했다. 일반적으로 정밀한 3D 스캔은 라이다 또는 구조광 스캐너 등의 전문 장비를 활용해 진행하는 경우가 많은데, 이번에는 유물이 해외에 있어 장비의 반입과 적절한 환경을 조성하기가 어렵다는 점 때문에 사진 측량 기반의 데이터를 생성하는 방식으로 제작했다. 그리고 이를 위해 TRIC가 예술품 데이터 구축 사업에서 대부분의 공간 및 오브젝트의 3D 데이터를 구축할 때 사용하는 리얼리티캡처를 사용했다. 유물마다 수천 장의 사진을 촬영한 후 리얼리티캡처로 메시를 생성했는데, 덕분에 높은 정밀도의 텍스처와 메시가 적용된 애셋을 구축할 수 있었다. 리얼리티캡처는 코로나19 팬데믹으로 독일 국경이 봉쇄된 상황에서 베를린의 건축사진가와 협업을 통해 샤를로텐부르크성 도자기 방 프로젝트를 성공적으로 마무리할 수 있게 해 주었던 핵심 툴이기도 하다.   ▲ 스캔된 13점의 실제 유물(위)과 디지털 버전(아래)(이미지 출처 : 언리얼 엔진 홈페이지)   프로젝트 2차 연도에 진행한 실감 콘텐츠 제작 작업에서는 길게 펼쳐진 병풍 속에 그려진 칠보산을 3면으로 구성된 몰입형 스크린으로 옮겨, 전통 회화의 느낌을 그대로 살리면서 입체적인 공간감을 더하고자 했다. 이를 위해 먼저 카메라 로데이터를 활용해 폭당 수천 장의 이미지를 연결하여 방대한 기가픽셀 데이터를 구축했다. 모든 요소들을 객체별, 색역별, 층별로 분리해 별도의 레이어로 제작하고, 여기에 언리얼 엔진을 활용해 3차원 공간에 재배치한 후 촬영하는 방식을 통해 평면의 전통 회화 유물인 칠보산도에 입체감과 역동감을 부여하여 3D 콘텐츠로 재탄생시켰다.   ▲ 2D 병풍화를 레이어화하여 언리얼 엔진에서 3D 공간에 재배치(이미지 출처 : 언리얼 엔진 홈페이지)   입체감 표현에 무엇보다 중요했던 것은 캐릭터의 윤곽선을 따라 붓 선의 느낌이 나도록 표현하는 것이었다. TRIC는 언리얼 엔진의 머티리얼 에디터를 통해 셰이더를 제작했고, 그 위에 종이 질감의 고퀄리티 텍스처를 메가스캔에서 다운로드 후 가공하여 캐릭터에 포스트 프로세싱 재질을 입혀주는 방식으로 제작했다. 그리고 역동감을 살리기 위해서 필요했던 포그는 언리얼 엔진의 나이아가라 플루이드로 제작했다. 덕분에 다른 오브젝트와 실시간으로 반응하는 시뮬레이션이 가능했고, 원하는 타이밍에 시퀀서를 통해 제어할 수 있었다. 또한, Open VDB를 활용했던 기존 방식보다 가볍고 필요한 수정을 즉시 작업할 수도 있었다. 이렇게 잘 만들어진 캐릭터와 이펙트를 3면으로 구성된 스크린으로 보여주기 위해 세 개의 카메라를 하나로 묶은 카메라 리그를 사용해 애니메이션을 효과적으로 한 번에 처리했고, 렌더링 역시 시퀀서에 배치된 세 개의 카메라를 동시에 렌더링할 수 있는 무비 렌더 큐로 개별 영상을 한 번에 출력했다.   ▲ 3개의 카메라로 동시에 렌더링하는 장면(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진과 에픽 에코시스템의 역할  칠보산도 실감 콘텐츠처럼 전통 회화 리소스를 활용한 콘텐츠에서는 동양 회화 특유의 심미적 감각과 화풍이 모든 요소와 장면에 일관적으로 유지되어야 하기 때문에, 모든 과정에서 정밀하게 컨트롤할 수 있는 제작 툴이 필요하다. 언리얼 엔진은 퍼포먼스의 제약 없이 콘텐츠 자체의 비주얼 퀄리티를 최대한 올리면서 나이아가라, 시퀀서 등으로 그 구성 애셋을 세밀하면서도 정확하게 컨트롤할 수 있는 환경을 제공했다. 또한, 언리얼 엔진 마켓플레이스와 메가스캔의 라이브러리에서 구름, 달, 안개, 바람, 비 등 다양한 자연 현상을 구현할 때 적합한 리소스를 빠르게 확보할 수 있었고, 리깅된 애니메이션 캐릭터를 전통 회화 스타일로 완전히 새롭게 입체화하는데 반드시 필요한 원화의 캐릭터 질감을 구현하는 데 적합한 고퀄리티의 셰이더, 텍스처 등도 제공하여 작업 시간을 줄일 수 있었다.   ▲ 전통 회화의 붓 선 셰이더 적용 여부 비교. 투명도 0.2(위), 투명도 0.8(아래)(이미지 출처 : 언리얼 엔진 홈페이지)   무엇보다 언리얼 엔진의 리얼타임 렌더링이 프로젝트에 반드시 필요한 핵심 기술이었다. 이번 프로젝트의 경우, 콘텐츠 제작 기간이 2개월도 주어지지 않아 시간이 촉박했다. 그에 반해 3개의 스크린이 사다리꼴 모양으로 배치된 몰입형 스크린에서 콘텐츠를 구현하기 위해 3개의 버추얼 카메라로 촬영하여 매우 높은 해상도로 렌더링해야 했다. 이런 경우 관람객의 위치 및 화각에 따라 몰입도가 확연히 달라지기 때문에, 다양한 변수에 대응하며 반복적이고 섬세한 조정이 필요했다. 특히, 한국과 미국이라는 지구 정 반대편에 있는 양국 전문가들이 참여하다 보니 실시간 컨퍼런스 콜을 통해 세부 의견을 주고받아야 하는 상황이었는데, 언리얼 엔진을 통해 실시간으로 확인하고 조정할 수 있었기 때문에 소통 시간을 줄일 수 있었다. 또한, 최종 결과물의 퀄리티도 이미 제작 과정에서 미리 확인할 수 있었기 때문에 커뮤니케이션의 오류나 재작업 리스크가 거의 없었다. 만약 전통적인 방식으로 제작했다면 회의만 하다 정해진 프로젝트 기간이 다 되거나, 겨우 합의에 이르렀다 해도 퀄리티는 물론 기간 내에 제작하는 것조차 불가능했을 것이다.   ▲ TRIC가 해외 전문가들과 컨퍼런스 콜을 진행하는 모습(이미지 출처 : 언리얼 엔진 홈페이지)   문화유산기술연구소의 향후 목표 및 나아갈 방향 단기적으로는 현재 수행하고 있는 CMA 소장 한국문화재 디지털 귀향 프로젝트와 이집트 문화유산 ODA(공적개발원조) 프로젝트를 성공적으로 마치는 것이 TRIC의 목표다. 장기적으로는 이러한 성과를 바탕으로 확보된 수많은 데이터와 리얼타임 콘텐츠를 연결하는 메타버스와 유사한 개념의 시대별 리얼타임 월드를 구축하는 것을 목표로 하고 있다. 이를 위해서 언리얼 엔진과 에픽 에코시스템을 더욱 적극적으로 활용해 역사적으로 보존할 가치가 높은 도시의 시대별 모습을 입체적으로 복원해 나갈 계획이다. 그 일환으로, 우선 8세기 서라벌 전체를 리얼타임 월드로 구축하는 프로젝트를 언리얼 엔진을 활용하여 진행하고 있다. 신라의 왕경인 서라벌의 지형, 식생 등이 복원된 환경에서 건축, 도로, 사람, 역사적 사건 및 사회 등의 방대한 데이터를 하나의 플랫폼에서 마주하고, 발굴 및 연구 결과를 업데이트할 수 있다. 뿐만 아니라 이를 체험하며 교류할 수 있는 하나의 콘텐츠로서, 실사 수준의 퀄리티로 영화나 다큐멘터리 속의 장면도 그 자리에서 바로 만들어 낼 수 있다.   ▲ 서라벌 리얼타임 월드(위)와 나나이트 트라이앵글 시각화(아래)(이미지 출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01
[포커스] 모두솔루션, 지스타캐드 시장 확대 및 파트너십 강화 전략 소개
모두솔루션이 지난 3월 13일 ‘지스타캐드(GstarCAD) 파트너 콘퍼런스’를 진행했다. 지스타캐드를 국내에 판매하는 파트너사를 대상으로 한 이번 콘퍼런스에서는 지스타캐드의 비즈니스 현황과 향후 개발 계획 등이 소개됐다. ■ 정수진 편집장     대안 CAD의 퍼포먼스 향상과 생태계 구축 추진 지스타캐드는 2D CAD 시장에서 사실상의 표준으로 쓰이는 오토캐드와 호환되면서 가벼운 퍼포먼스와 저렴한 가격을 앞세운 이른바 ‘대안 CAD’ 제품 중 하나이다. 중국의 지스타소프트(Gstarsoft)가 개발하고, 국내에서는 모두솔루션이 공급한다. 지스타소프트의 루샹(Lu Xiang) CEO는 “작년 중국 상하이 증시에 상장한 이후 10억 위안(약 1800억 원) 이상의 투자를 유치했다”면서, R&D를 통한 제품 라인업 확대 및 인지도 강화를 위한 마케팅을 강화할 수 있는 기반을 마련했다고 전했다. 지스타소프트는 중국 시장에서는 직접 판매 중심으로, 해외 시장에서는 600여개의 파트너사를 통한 비즈니스를 진행한다. 해외 비즈니스 비중을 장기적으로 50%까지 늘리는 것이 목표이다. 이외에 클라우드 비즈니스도 진행한다. 1500만 명의 MAU(월간 활성 사용자)를 기록한 모바일용 CAD 뷰어를 시작으로, 최근에는 클라우드 제품인 ‘지스타캐드 365’를 개발했다. 루샹 CEO는 지스타캐드 개발의 핵심 요소로 품질, 성능, API(애플리케이션 프로그래밍 인터페이스), 신기능 등 네 가지를 꼽았다. 소프트웨어의 안정성과 함께 속도를 높여 도면 작업 시간을 줄이는 것이 가장 큰 관건이다. 또한 API를 통해 서드파티 생태계를 구축하는 동시에, 오토캐드 서드파티 툴을 지스타캐드용으로 마이그레이션하는 노력도 기울일 예정이다.    3D/클라우드/AI 등 제품 라인업 확대 루샹 CEO는 제품의 성능을 높이는 기술 개발에 집중하면서, 제품 라인업을 넓힐 계획이라고 전했다. 2D CAD에서 나아가 BIM(빌딩 정보 모델링) 시장을 겨냥한 3D CAD로 제품군을 확대하는 한편, 모바일 CAD 뷰어와 클라우드 CAD 등 신기능과 신제품을 제공하는 개발도 추진할 계획이다.  클라우드 CAD 제품인 ‘지스타캐드 365’는 한국 출시를 준비하고 있다. 클라우드에 설계 데이터를 저장함으로써 디바이스의 제약 없이 협업과 공유가 가능하다는 점을 내세운다. 2D 설계 외에 기계, BIM 등 제품군을 개발할 계획이며, 협업 기능은 구독 라이선스로 판매될 가능성이 있는 것으로 알려졌다. 루샹 CEO는 “AI에 대한 기대가 높은 상황에서 CAD에 AI를 접목하는 방법에 대해서도 연구 중이다. AI는 건축 설계 등에서 작업 시간을 줄일 수 있을 것으로 기대하고 있다”고 전했다.   ▲ 지스타소프트는 클라우드 CAD 제품군을 넓히고, 국내 시장에도 선보일 계획이다.   생태계 중심으로 국내 비즈니스 강화 계획 모두솔루션은 지난 2019년 지스타캐드 누적 판매 1만 카피를 기록한 이후, 2023년에는10만 카피를 돌파했다고 밝혔다. 국내 시장에서 선호도가 높아지고 있으며, 파트너 숫자 증가 등 파트너 비즈니스도 꾸준히 활성화되고 있다는 것이 모두솔루션의 평가이다. 지스타캐드의 한국 비즈니스에 대해서 루샹 CEO는 “한국 시장은 지난 2008년 이후 매년 40%씩 성장하면서 빠른 증가세를 보이고 있다”면서, 한국 고객에 대한 지원 조직을 확대하고, 한국 고객의 요구에 대응하기 위해 모두솔루션과의 R&D 협력을 강화할 것”이라고 밝혔다. 모두솔루션은 오토캐드 사용자의 지스타캐드 이전 지원 및 서드파티 지원 확대를 포함한 사용자 생태계 구축을 추진할 계획이다. 오토캐드용 서드파티 툴 중 하나인 ‘드림플러스’에 대응하는 ‘매직플러스’의 기능 개발을 시작해, 올 연말에는 기본 기능의 개발을 완료할 예정이다. 파트너 지원 시스템 또한 개선해 파트너 사이트 및 발주 시스템을 새롭게 구축할 계획이다. 모두솔루션의 정충구 대표이사는 “국내에서는 중견기업 시장을 중심으로 지스타캐드 고객을 늘려 왔는데, 최근에는 대기업 고객을 발굴하는 데에 힘을 기울이면서 실제 대기업 고객 확보가 이뤄지고 있다”면서, 시장 확대와 함께 서드파티 관련 개발 및 파트너십을 강화할 계획이라고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01
인텔, 개발자·하드웨어 벤더를 위한 AI PC 가속화 프로그램 확대
인텔은 ‘AI PC 가속화 프로그램(AI PC Acceleration Program)’의 일환으로 ▲ AI PC 개발자 프로그램(AI PC Developer Program) 신설과 ▲IHV(독립 하드웨어 벤더)로 프로그램 지원 대상 확대를 골자로 하는 새로운 AI 이니셔티브 2개를 발표했다. 인텔은 2025년까지 1억 대 이상의 인텔 기반 AI PC에서 소프트웨어 및 하드웨어 생태계가 AI 기능을 최적화할 수 있도록 하겠다는 목표를 세웠다. AI PC 개발자 프로그램은 소프트웨어 개발자와 ISV(독립 소프트웨어 벤더)를 위해 설계된 프로그램으로 원활한 개발자 경험을 제공하고 개발자가 규모에 맞춰 새로운 AI 기술을 쉽게 채택할 수 있도록 지원한다. 인텔 코어 울트라(Intel Core Ultra) 프로세서를 탑재한 개발자 키트와 각종 도구, 워크플로 및 AI 배포 프레임워크를 제공한다.     업데이트된 개발자 리소스 페이지에서는 개발자가 AI PC 및 PC용 툴킷, 관련 자료 및 교육 프로그램을 모두 제공받을 수 있다. 이러한 리소스로 개발자가 인텔 코어 울트라 프로세서 기술을 활용하여 AI 및 머신러닝(ML) 애플리케이션 성능을 최적화하고 신규 사용 사례를 신속하게 개발할 수 있다. 그리고, 개발자들은 인텔 AI PC 가속화 프로그램에 가입해 PC 업계에서 AI 성능을 극대화하기 위해 노력하는 인텔의 글로벌 파트너 네트워크에 대해 더 자세히 확인할 수 있다. 또한 AI PC 가속 프로그램에 독립 하드웨어 공급업체(IHV)를 추가하면서 IHV가 AI PC용 하드웨어를 준비, 최적화 및 구현할 수 있는 기회를 제공한다. 파트너사는 인텔 오픈 랩스(Open Labs)에 접속해 하드웨어 솔루션 및 플랫폼의 개발 단계 초기에 기술 및 공동 엔지니어링 지원을 받을 수 있다. 또한 이 프로그램을 통해 인텔은 IHV 파트너가 기술을 테스트하고 최적화하여 출시할 때까지 최대한 효율적으로 실행할 수 있도록 레퍼런스 하드웨어를 제공한다. 인텔은 이 프로그램을 통해 개발자들이 최신 인텔 프로세서에서 소프트웨어의 호환성과 전반적인 최종 사용자 경험을 높이고, AI PC 하드웨어에 맞춰 소프트웨어 성능을 최적화하며, 새로운 시장에 진입하고 산업 전반에서 성공할 수 있는 기회를 얻을 수 있을 것으로 전망했다. 인텔의 카를라 로드리게즈(Carla Rodriguez) 클라이언트 소프트웨어 생태계 지원 부문 총괄은 “인텔은 생태계와 협업함으로써 AI PC 가속화 프로그램의 큰 진전을 이루었다”라며, “AI PC 개발자 프로그램 추가로 대규모 ISV 외에도 범위를 확대하여 중소규모 및 개인 개발자도 지원하게 되었다. 인텔의 목표는 새로운 AI 지원 개발자 키트를 포함해 광범위한 개발 도구를 지원해 원활한 개발 경험을 제공하는 것”이라고 밝혔다.
작성일 : 2024-03-27